De ce mașinile autonome ar putea avea voie să te ucidă

de: Andrada Bonea
19 06. 2015

Cei care au făcut Etică în liceu sau în facultate sunt deja familiarizați cu dilemele morale. Din fericire, majoritatea sunt într-atât de exagerate încât ai garanția că nu vei niciodată pus într-o situație similară în viața reală.

Totuși, cei de la Universitatea din Alabama au adaptat cea mai populară dilemă morala la realitatea imediată. Aceasta a fost folosită ca experiment psihologic pentru a testa moralitatea subiecților, în zeci de situații. Pentru cei care nu știu despre ce este vorba, adaptarea dilemei etice sună astfel: conduci un troleibuz, ale cărui frâne nu mai funcționează și care se îndreaptă vertiginos spre un autobuz plin de copii. Poți alege să deraiezi, dar în partea în care poți face asta se află un copil, pe care nu ai cum să îl eviți. Și nu e orice copil, ci al tău. Așadar, ești pus în situația de a alege între viața a câteva zeci de copii și viața copilului tău. Cum ai proceda?

Mașinile autonome Google au deja la activ aproape 3 milioane de kilometri parcurși pe străzile americane, dar nu au fost niciodată cauza unui accident, potrivit statisticilor. Cei de la Volvo au de gând, de asemenea, să lanseze o mașină autonomă în 2017. Elon Musk spune că tehnologia este aproape pregătită pentru marile străzi.

Tehnologia este pregătită, dar cum rămâne cu noi, oamenii?

Mașinile Google pot să evite orice fel de obstacol și chiar să anticipeze acțiunile altor șoferi. În anumite situații, însă, un accident nu poate fi evitat nici de cel mai iscusit șofer, la volanul celei mai bune mașini. Într-o situație similară celei prezentate mai sus, computerul mașinii va fi, cu siguranță, suficient de rapid să ofere o soluție rațională. Ar putea scana mașinile din față și să o identifice pe cea care are cele mai mari șanse de a rezista unei coliziuni sau pe cea cu cei mai puțini oameni în interior. Dar va fi capabil să stabilească ce decizie este corectă din punct de vedere etic?

„Practic, această problemă rezultă într-o alegere între utilitarism și deontologie”, a spus Ameen Barghi de la Universitatea din Alabama, câștigătorul compionatului anual de etică. Anul trecut, subiectul a fost legat întocmai de o astfel de dilemă: dacă mașinile autonome se vor dovedi mult mai sigure decât cele obișnuite, ar fi guvernul îndreptățit să interzică definitiv ca oamenii să conducă mașini? Răspunsul, pe scurt, a fost „da”.

Mașina autonomă va alege utilitarismul sau deontologia?

Ar trebui ca mașina ta autonomă să fie programată să te ucidă pe tine pentru a-i salva pe alții? Există două perspective filosofice asupra acestei probleme, potrivit lui Barghi. Utilitarismul ne spune să alegem întotdeauna maximizarea fericirii pentru cel mai mare număr de oameni. Deontologia, pe de altă parte, pretinde că unele valori sunt întotdeauna adevărate. De exemplu, crima este întotdeauna greșită, indiferent de circumstanțe. Cu alte cuvinte, chiar dacă alegi să salvezi cinci oameni și să ucizi unul, pentru că nu ai de ales, tot va fi greșit. De asemenea, nici opțiunea în care mașina autonomă sacrifică viața șoferului pentru salvarea altora nu e de preferat.

Din punctul de vedere al lui Gregory Pence, directorul departamentului de Filosofie al UAB, un computer nu poate face față dilemelor morale. Nici oamenii nu pot face asta, pentru că, în ciuda empatiei de care se presupune că suntem capabili, întotdeauna vor exista prea multe circumstanțe atenuante și întrebări fără răspuns.

Membrii echipei de Etică și Bioetică petrec mult timp dezbătând acest subiect, încă de la apariția mașinilor autonome. Până acum, nu au ajuns la un răspuns capabil să rezolve această morală, și, judecând după complexitatea acesteia, sunt șanse mici să se întâmple asta vreodată. Rămâne, însă, de văzut cum vor proceda producătorii de mașini.